|
13.01.2026
10:30 Uhr
|
Wer sich auf ChatGPT & Co. verlässt, lagert kognitive Fähigkeiten aus – und büßt sie letztlich ein. Studien belegen das, lehren aber auch klügere Arbeitsweisen.

Künstliche Intelligenz zu nutzen, bedeutet in vielen Fällen, tiefen Denkvorgängen aus dem Weg zu gehen. Dass diese Fähigkeit dann nicht weiter trainiert wird und verkümmern kann, haben unterschiedliche Untersuchungen bereits gezeigt. Beispielsweise belegten zwei Forscherinnen an der McGill University in Montreal 2020, dass Autofahrer, die sich dauerhaft auf GPS-Navigationssysteme verlassen, letztlich ein schwächeres räumliches Gedächtnis aufweisen. Vergleichbare Kompetenzverluste haben sich bereits in wissenschaftlichen Befragungen unter diversen Wissensarbeitern angedeutet und betreffen so unterschiedliche Arbeitsvorgänge wie Übersetzungen zwischen zwei Sprachen, Textzusammenfassungen und Softwareprogrammierung.
Das Problem besteht darin, dass viele KI-Tools ihre Anwender nicht nur zu effizienterer Arbeit befähigen, sondern ihnen dabei geistige Anstrengungen weitgehend ersparen, wie Michael Gerlich von der Swiss Business School (SBS) in seiner jüngsten Forschungsarbeit ausführt. Große Sprachmodelle, die fertige Texte, Argumentationen oder Entscheidungen liefern, laden besonders stark dazu ein, das Denken zu delegieren. Diese Gefahr ist bei spezialisierten Werkzeugen geringer, etwa bei Suchmaschinen oder Datenanalyse-Tools, die Informationen bereitstellen, aber keine fertigen Schlussfolgerungen vorgeben.
Mit EEG-Scans (Elektroenzephalografie) haben Forscher am Massachusetts Institute of Technology (MIT) die Hirnaktivität beim Schreiben eines Aufsatzes untersucht. Ihre Ergebnisse machen deutlich, dass Large Language Models (LLM) die Testkandidaten weitgehend von eigenständigen Denkprozessen entlasten. Wer beim Formulieren eines Textes eine Suchmaschine nutzte, wies eine geringere Hirnaktivität auf als Probanden ohne dieses Hilfsmittel, und der Einsatz von LLMs senkte den Wert noch einmal dramatisch.